ताजा खबर
बुलेट ट्रेन: प्रोजेक्ट का पूरा होना इस प्रमुख कारक पर निर्भर करता है, आरटीआई से पता चला   ||    ICICI और Yes Bank के सर्विस चार्ज बदले, Axis ने भी किया बड़ा ऐलान   ||    मलेशियाई नौसेना के हेलीकॉप्टर हवा में टकराए, 10 की मौत   ||    लोकसभा चुनाव 2024: सबसे बड़ा लोकतंत्र मतदान क्यों नहीं कर रहा?   ||    Earth Day 2023: पृथ्वी दिवस कब और क्यों मनाया जाता है?   ||    फैक्ट चेक: उत्तराखंड में लोकसभा चुनाव के बीच CM धामी ने सरेआम बांटे पैसे? वायरल वीडियो दो साल पुराना...   ||    मिलिए ईशा अरोड़ा से: ऑनलाइन ध्यान खींचने वाली सहारनपुर की पोलिंग एजेंट   ||    आज का इतिहास: 16 अप्रैल को हुआ था चार्ली चैपलिन का जन्म, जानें अन्य बातें   ||    एक मंदिर जो दिन में दो बार हो जाता है गायब, मान्यता- दर्शन मात्र से मिलता मोक्ष   ||    फैक्ट चेक: कानपुर में हुई युवक की पिटाई का वीडियो 'ब्राह्मण पर पुलिसिया अत्याचार' के गलत दावे के साथ...   ||   

बैन हुआ ट्विटर अकाउंट जो बना रहा था बॉलीवुड अभिनेत्रियों के नकली वीडियो, आप भी जानें

Photo Source :

Posted On:Thursday, November 9, 2023

मुंबई, 9 नवम्बर, (न्यूज़ हेल्पलाइन)   एक्ट्रेस रश्मिका मंदाना का जो वीडियो वायरल हुआ था, वह दरअसल डीपफेक तकनीक का इस्तेमाल करके बनाया गया था। इस घटना से इस तकनीक से बनाए गए कई अन्य चित्र और वीडियो प्रकाश में आए जो रडार से गायब हो गए थे। इसने उस ट्विटर अकाउंट की ओर भी ध्यान आकर्षित किया जो आलिया भट्ट, कियारा आडवाणी, काजोल, दीपिका पादुकोण और अन्य बॉलीवुड अभिनेत्रियों के नकली वीडियो और चित्र बनाने के लिए जाना जाता है। उपयोगकर्ता ने तब से वह खाता हटा दिया है।

बूम लाइव की रिपोर्ट के अनुसार, एक ट्विटर अकाउंट, जिसे पहले @crazyashfan के नाम से जाना जाता था, की पहचान 'फोटो और वीडियो हेरफेर कलाकार' के रूप में की गई है। हालाँकि, इस खाते द्वारा निर्मित सामग्री कला से बहुत दूर है। यह व्यक्ति स्पष्ट सामग्री की तलाश करता है और मूल वयस्क कलाकारों के चेहरों को भारतीय अभिनेत्रियों के चेहरों से बदलने के लिए एआई तकनीक का उपयोग करता है। एक्स अकाउंट ने कुल 39 पोस्ट साझा किए हैं, जिसमें आलिया भट्ट, कियारा आडवाणी, काजोल, दीपिका पादुकोण और कई अन्य जैसे बॉलीवुड सितारों के हेरफेर किए गए एआई-जनरेटेड वीडियो शामिल हैं, जो स्पष्ट यौन गतिविधियों में संलग्न हैं।

इसके अलावा, यह खाता ट्विटर पर चार अन्य खातों का अनुसरण करता हुआ पाया गया, जो भारतीय अभिनेत्रियों से संबंधित डीपफेक सामग्री बनाने में समान प्रकृति साझा करते हैं। नए डीपफेक चलन से न केवल बॉलीवुड की प्रमुख हस्तियां प्रभावित हुई हैं, बल्कि हॉलीवुड सुपरस्टार स्कारलेट जोहानसन ने एक विज्ञापन में उनकी आवाज की क्लोनिंग करने के लिए एआई क्लोन ऐप के खिलाफ मामला दर्ज किया है। विज्ञापन में एआई-जनरेटेड तस्वीरें और जोहानसन की नकल करती आवाज दिखाई गई। जोहानसन की टीम ने कहा है कि वह ऐप के खिलाफ कानूनी कार्रवाई करेगी। माइक्रोसॉफ्ट के अध्यक्ष ब्रैड स्मिथ ने भी एआई विनियमन की आवश्यकता पर टिप्पणी की है। उन्होंने कहा कि हमें लोगों को एआई-हेरफेर वाली सामग्री से बचाने के लिए कदम उठाने की जरूरत है।

वैरायटी की एक रिपोर्ट के अनुसार, मार्वल फिल्मों की अभिनेत्री लिसा एआई: 90s इयरबुक एंड अवतार नामक एआई ऐप के लिए एक्स नामक प्लेटफॉर्म पर 22 सेकंड के एक छोटे से विज्ञापन में दिखाई दीं। विज्ञापन में, उन्होंने स्कारलेट जोहानसन की एक क्लिप का इस्तेमाल किया। उनकी फिल्म "ब्लैक विडो।" क्लिप में, स्कारलेट कहती है, "सभी को नमस्कार! यह स्कारलेट है, और मैं चाहती हूं कि आप भी मेरे साथ जुड़ें।" फिर, स्क्रीन बदल जाती है, और आप एआई ऐप द्वारा स्कारलेट की तरह दिखने के लिए बनाई गई तस्वीरें देखते हैं, साथ ही एक आवाज भी देखते हैं जो उसके जैसी लगती है लेकिन एआई द्वारा उत्पन्न की गई थी। यह एआई आवाज ऐप के बारे में बात करती है और कहती है, "यह सिर्फ अवतार बनाने के लिए नहीं है। आप एआई के साथ शब्दों के साथ चित्र और यहां तक कि वीडियो भी बना सकते हैं। मुझे लगता है कि आपको इसे आज़माना चाहिए।"
तो, मूल रूप से, स्कारलेट जोहानसन एक छोटे से विज्ञापन में दिखाई दीं, जहां उन्होंने अपने लुक और साउंड को बेहतर बनाने के लिए एआई का उपयोग किया, जैसे कि वह इस एआई ऐप का प्रचार कर रही थीं, जो सिर्फ अवतार बनाने के अलावा और भी बहुत कुछ कर सकता है।

तो वास्तव में डीपफेक क्या है और यह खतरनाक क्यों है?

यह समझना महत्वपूर्ण है कि डीपफेक तकनीक, जो नई नहीं है और कुछ वर्षों से मौजूद है, अब स्कैमर्स और साइबर अपराधियों द्वारा तेजी से शोषण किया जा रहा है। वे इसका उपयोग वीडियो और छवियों को बदलने के लिए करते हैं, अक्सर उन्हें स्पष्ट बनाते हैं। यह तकनीक चित्रों और वीडियो के हिस्सों को बदलने और फिर से बनाने के लिए शक्तिशाली ग्राफिक्स कार्ड पर निर्भर करती है। लोग इसका इस्तेमाल गलत सूचनाएं फैलाने के लिए भी करते हैं। यह जानना आवश्यक है कि छवियों और वीडियो को बदलना, चाहे फ़ोटोशॉप या डीपफेक सॉफ़्टवेयर जैसे टूल का उपयोग करना, अवैध हो सकता है। डीपफेक तकनीक अत्यंत सजीव लेकिन भ्रामक डिजिटल सामग्री तैयार करने के लिए उन्नत कृत्रिम बुद्धिमत्ता का उपयोग करती है। यह किसी के वीडियो या ऑडियो रिकॉर्डिंग में दिखने और सुनने के तरीके को बदल सकता है, जिससे यह बताना मुश्किल हो जाता है कि क्या असली है और क्या नकली।

डीपफेक से संबंधित बढ़ते अपराधों पर टिप्पणी करते हुए, एसएफएलसी के संस्थापक मिशी चौधरी ने डिकोड को बताया, “व्यक्तियों को मदद देने के लिए कुछ संसाधनों पर काम किया जा रहा है क्योंकि कानून इसके साथ नहीं जुड़ा है। हमारे पुलिस बल प्रशिक्षित नहीं हैं और न ही हमारे न्यायाधीश या अदालतें प्रशिक्षित हैं।”


लखनऊ और देश, दुनियाँ की ताजा ख़बरे हमारे Facebook पर पढ़ने के लिए यहां क्लिक करें,
और Telegram चैनल पर पढ़ने के लिए यहां क्लिक करें



You may also like !

मेरा गाँव मेरा देश

अगर आप एक जागृत नागरिक है और अपने आसपास की घटनाओं या अपने क्षेत्र की समस्याओं को हमारे साथ साझा कर अपने गाँव, शहर और देश को और बेहतर बनाना चाहते हैं तो जुड़िए हमसे अपनी रिपोर्ट के जरिए. Lucknowvocalsteam@gmail.com

Follow us on

Copyright © 2021  |  All Rights Reserved.

Powered By Newsify Network Pvt. Ltd.